SOCIOLOGIA DIGITALE
"aprire la scatola nera" Guido Anselmi
"qualitative research in digital environements"
"waybackmachine" in internet archive ci sono tutti i dati di internet
Doctorow e Charlie Stores (romanzieri che hanno capito come funziona internet)
la tecnologia è fisica (carbonio consumato, fili, problemi di facebook di qualche anno fa dovuti a un arresto dell'elettricità), ha effetto sulla vita sempre; l'algoritmo è una creazione umana, non è imparziale dunque

sentiment analysis: il metodo più grezzo per farla è il conteggio delle parole

tecniche quantitative/tecniche qualitative

la sociologia scopre l'esistenza dei computer realmente verso la fine degli anni '80 e gli anni 2000, quando c'è la nascita dei social network (2010); una delle prime ricerche indagava il mondo della pornografia su irk, è uscito fuori che non c'era un'altra percentuale di fetish particolari, ma un uso di porno standard; Rogers scrive nel 2009 "the end of the virtual". La tecnologia non è tutto, le elezioni per esempio sono nutrite dai social, la società esercita un'influenza su ciascuno di noi, perché non dovrebbe essere così anche per la tecnologia? Twitter funziona dichiaratamente sul far appiccicare la gente, il principio dell'algoritmo è questo. Facebook, dopo aver ignorato di rispondere alla grande onda di chi voleva il tasto dislike, targettava i contenuti su elementi di destra: vedeva l'aumento di rezioni "grr" in persone che si stavano radicalizzando. Google è un altro mezzo per assimilare la forma della società
"follow the medium": conoscere i metodi per sfruttarli per le proprie ricerche
metodi virtuali: 

"oggetti nativi" (Rogers): 1link 2sito web 3 motore di ricerca 4sfere 5

4 sfere: insiemi di siti internet (videosfera, blogosfera...), assorbite dai social network secondo Anselmi

lo studio tradizionale dei siti web lo hanno fatto gli psicologi, un sito si testa puntando una telecamera in faccia a chi lo utilizza per registarre tempi di reazione e azioni; ma noi studiamo il sito come artefatto sociale, a valle

LLM stanno portando concorrenza a google, che sta implodendo da un paio di anni per ragioni commerciali
INTERNET è simile al mercato immobiliare, è la : i siti internet sono monopolio (ente a cui non si applicano le leggi del mercato, un price maker, non un price taker) naturale perché dal momento in cui produce un bene lo fa in funzione degli utenti, internet prende un bene svalutato, lo monopolizza. Es. Uber che mette il prezzo basso fino a quando falliscono tutte le altre agenzie di taxi, per poi rialzare il prezzo (es. flixbus, itabus). La risorsa più scarsa del web è l'ATTENZIONE (cfr. Bauman). Anche Amazon ha sbancato così: inizialmente non era in positivo ma stava crescendo esponenzialmente, quindi veniva finanziato. Finanza e tecnologia coincidono attualmente. Quando finisce la crescita esponenziale inizia il bombardamento di pubblicità ("enshittification"), non è più price maker. I primi risultati di una ricerca internet attualmente sono il prodotto di chat GPT. I social funzionano cos: all'inizio il nostro utilizzo aiuta a costruire la piattaforma. Le piattaforme sono monopolisti e abilitatori di monopoli. Le recensioni funzionano quando la piattaforma è piccola, poi i venditori saranno più visibili degli acquirenti e avranno più recesnioni e chi ha tante recensioni con più facilità riceve più recensioni e cresce più velocemente. Questi sono molti pochi: è lo specchio della società capitalistica.  

La PIATTAFORMA DIGITALE è un intermediario tra un venditore e un acquirente che risolve il problema dell'asimmetria informativa (es il venditore sa che problemi ha la macchina usata, l'acquirente no): le piattaforme fanno da garanti. Non tutti i siti sono piattaforme, se non fanno da intermediari non lo sono; i social sono piattaforme perché fanno da intermediari tra le persone; ma non tutte le piattaforme sono social network. 
PIATTAFORME
SITI
SOCIAL (passato da distributore di contenuti a produttore di contenuti)

la sociologia si basa sulla DEMOGRAFIA: categorizzazione della società (maschio/femmina, italiano/straniero...) su cui eseguire le ricerche. Nella postdemografia non interessano più le categorie demografiche standard, ma i dati sui consumi ricavati dalle piattaforme; dai consumi sulle piattaforme deduce la categoria di appartenenza. Es. Tesco deduce il tuo orientamento politico a partire dal supermercato che preferiscono, perché fa sondaggi sugli orientamenti politici su un gruppo, sui supermercati su un altro e questi sondaggi in qualche modo vanno fatti coincidere. Così sono nati i prodotti glutenfree. 

sociologia digitale 08/10
la distribuzione dell'utilizzo dei social coincide con la mappa delle alleanze globali (in europa america e africa si usa Facebook, in cina Instagram…) 

Problemi delle AI/LLM
problemi di monopolio (costa sempre più pubblicare dati)
tech=finance (stesse logiche, stesse persone)
sta diventando sempre più difficile separare immagini naturali da immagini artificiali
funziona con bias
non serve a nulla (cfr discorso su techné della stamantia)

Sentiment analysis: si classificano delle parole d'ordine (che variano a seconda del contesto) in tre gruppi: positive, neutral e negative 
sistemi per fare sentiment analysis: bear word, transformer,

text analysis:
modello tfdf: ho delle categorie preesistenti, dei dati già raccolti; allora guardo le parole significanti per ogni categoria, che sono caratteristiche di una categoria e non delle altre
top modelling: non conosco le categorie di un testo, utilizzo approcci progressivi per individuare le categorie 
NER: il software confronta il testo con altre persone, contenuti… e segmenta il testo sui temi
network analysis: descrive una realtà sociale con una serie di collegamenti

sociologia 10.10
Che contributo i big data danno alle scienze sociali? 
cosa sono i big data? l'informatica più che una dimensione tecnologica vive una dimensione economica, materiale (è accessibile attraverso il computer ed è legata allo sviluppo del mercato): i big data si sono sviluppate prima nell'uso legato al mercato e poi nel resto degli interessi. Ora sono un settore dell'economia, non una tecnologia, ma una famiglia di tecnologie in grado di raccogliere, organizzare e analizzare grandi quantità di dati. Non esiste tuttavia una definizione univoca di cosa siano. L'unica cosa certa è che sono tanti, talmente tanti da dover sviluppare nuovi software, hardware e servizi. La tecnologia è singolare perché studia gli strumenti tecnici e dunque si evolve con l'evoluzione degli strumenti, in conseguenza ad essa.

Tutte le tecnologie quando appaiono sul mercato hanno bisogno di un'ideologia che le legittimi, una narrazione che ne giustifichi l'uso. Es i telefoni cellulari ora hanno un canale splittato (voce da un lato e dati da un altro), in passato c'è stata un'azienda che pubblicizzava i videotelefoni che si differenziavano dagli altri per poter fare le videochiamate (in realtà la banda era troppo stretta per farle); questo è un esempio di marketing, ma ogni tecnologia ha bisogno di giustificazioni. L'evoluzione non è mai una questione tecnologica: concorrono una serie di variabili (sociale, culturale, economica…), spazi che servono a giustificare l'esistenza dei nuovi prodotti.
Il protocollo ITCP funziona che spara l'informazione in tutta la rete in modo da trovare in ogni caso la destinazione, in più se manca un pacchetto quelli presenti lo costruiscono da zero.
La giustificazione dei big data è stata la predittività: hai talmente tanti dati da poter predire gli andamenti del mercato, i processi interni ecc, cosa che ti fa risparmiare sul lungo termine. 
i big data possono prevedere? 

sociologia 24/10
secondo i paradigma dello spazio esterno ciò che accade in internet resta all'interno di internet; i dati raccolti mi spiegano non i rapporti sociali, ma i rapporti sociali all'interno delle piattaforme digitali. il modello di internet come spazio interno utilizza invece i dati raccolti come RAPPRESENTAZIONE dei fenomeni sociali al di fuori delle piattaforme. 
cultural analytics: un approccio transnazionale e computazionale allo studio dei big datas per studiare i pattern di diffusione culturale. es. il progetto "selfiecity.net" si è chiesto: esiste un'influenza culturale legata al contesto sulla maniera di farsi i selfie? cioè se sono di san paolo o di berlino mi faccio foto alla stessa maniera? hanno scoperto che ci sono effettivamente maniere diverse di farsi selfie a seconda di da dove si posta. l'assegnazione dei valori alle variabili (posizione della bocca, angolazione del viso, sesso…) è stata fatta da rater umani attraverso la combinazione: schema+riproducibilità (lo stesso schema di assegnazione dei valori applicato da più rater); questo metodo è spesso utilizzato per dati non strutturati. Per eseguire l'assegnazione di cui sopra gli studiosi del progetto hanno utilizzato "amazon mechanical turke" piattaforma di crowddsourcing (marketplace di cloudsourcing, come glovo per i rider, "vende persone", serbatoio di persone): inserisco un task (dataset da compilare) e la community iscritta alla piattaforma può decidere di partecipare alla targettizzazione (assegnazione dei valori alle variabili) ricevendo in cambio un piccolo compenso.
Come accade in questo progetto, anche il machine learning è supervisionato: una macchina per imparare ha bisogno che un umano le carichi un database che l'umano già conosce, un dataset già taggato con cui la macchina può allenare la sua rete neurale. La maggior parte dei database utilizzati a questo scopo vengono da amazon mechanical turke, oppure database taggati da reti neurali già testate (il ché ha un costo più basso). il nome di questa piattaforma prende spunto (ma voi non potete saperlo perché non siete abbastanza nerd gnene, bennato che è un grande lo sa gnegne) dal giocatore meccanico di scacchi del barone von campelen (1700-il periodo in cui era stato tradotto le mille e una notte, periodo di orientalismo, da qui la scelta estetica), von campel lo faceva vincere con i nobili e perdere con i reali. Alla fine si è scoperto che era una persona a muovere il presunto automa dall'interno. il giocatore meccanico è il tipico oggetto che si poteva trovare i una wundercamber: collezioni di cose strane dal mondo, i protomusei di scienza. [altro studio simile, ma sui manga: millionmangapages, di manovich]
metodi raccolta dati nei social media: api partono dall'approccio "software as a service" ("saas"), sorto quando i software sono diventati collegati a internet, in sostanza il software è installato sul locale, ma alcune opzioni sono possibili solo perché collegati a server esterni. i primi saas nascono per iphone, ora tutti i software sono saas. 
ogni software ha una parte backhand (parte di gestione, non sempre scritto da un programmatore, ma ricavato da un flusso di api), e una parte fronthand (lato dell'utilizzatore)
twitter utilizza due tipi di api: 1.streaming api: sono flussi dati che partono dalla data e ora in cui si compie la ricerca in poi e costa di meno 2.search api: dati registrati in un lasso di tempo passato e costa di più; dalla nascita di X l'accesso quasi gratuito a un flusso api è stato cancellato, ora bisogna pagare.
i retweet sono proporzionali a quanto la notizia è istituzionale, i contenuti molto istituzionali vengono tuttalpiù commentati
twitter fungeva da modello (vedi p.37 del libro) non solo per facilità di accesso ai dati, ma anche perché maggiormente interessante (es distingueva follower-following); ora vanno molto di moda gli studi su tiktok. Il problema però è che non se ne conosce l'algoritmo, al di là del fatto che insiste sulla profilazione del contenuto piuttosto che del profilo: tiktok è più preciso di Instagram perché tiene presente la modalità di fruizione del singolo post da parte dell'utente (es. termina di vedere il video o scrolla).
si parla di "twitter firehose": "idrante" ad indicare il flusso ininterrotto di tweet)
componenti di un tweet: nome account, link dell'account, data di pubblicazione, pubblicato da telefono/desktop/tool, testo, link, hashtag, like, retweet, replay; a partire da queste si possono ricavare informazioni sulle interazioni (soprattutto il retweet count)
hotsuit permetteva di pubblicare contemporaneamente da più profili e restituiva le analytics degli stessi (le prestazioni, i dati…)
l'autoetnografia ha uno svantaggio: la mancanza di interoperabilità (possibilità che lo stesso schema epistemologico venga applicato da un altro operatore), l'arbitrarietà dei risultati; nel caso di uno studio su tiktok per evitare questo problema si può accedere alla letteratura già prodotta su Musically-antesignano di tiktok- e sulla piattaforma cinese simil-tiktok.
esistono una sorta di pagine gialle (secondo bennato siamo troppo pischelli per conoscere le pagine gialle) che dà tutte le api per un dato social, la più famosa è programmableweb.com

sociologia 29.10
nodi = enti che devono essere connessi (attribuiamo un attributo che ci interessa al nodo e vediamo se conferma un pattern: es. attribuiamo il valore di provita/proaborto ai nodi e vediamo se si conferma la divisione destra/sinistra)
+
hedge/bordo/connessione/link (possono essere pesati-variabile numerica che rende un link più o meno importante: es. rapporto con presidente della repubblica più importante se vogliamo fare carriera in politica- o diretti- es. following su twitter) 
=
grafo

Granovetter voleva capire come la gente trovava il lavoro e scoprì che un legame debole riusciva ad essere più utile di uno forte; un legame debole è un legame tagliato il quale si perdono pochi altri nodi (es. amico di infanzia con cui non ci sentiamo più tanto); perché con i nodi con cui abbiamo un legame debole condividiamo più informazioni dei nodi con cui condividiamo più tempo (es. familiari). 
ATTRIBUTI DEI NODI
Spesso la gerarchia formale non è la gerarchia sostanziale, perché anche una persona in basso nella gerarchia può fare da mediatore tra tutti gli altri nodi. Del singolo nodo possiamo sapere il "degree", ossia con quanti nodi è connesso. 1 Degree assoluto x un network non direzionale 2 in-degree: numero di connessioni entranti 3 out-degree: numero di connessioni uscenti. path = sequenza di step che porta da un nodo a un altro, ce ne sono vari possibili tra due nodi: 1 geodesic path- la distanza più breve tra nodi opposti
diametro di un grafo = path tra nodi più distanti
La misura di importanza di un nodo si chiama centralità, può essere calcolata in maniere diverse:
la closeness centrality è una misura della velocità di trasmissione delle informazioni: alcuni nodi ricevono tante informazioni (es i media)
betweenness centrality: un nodo con un alto coefficiente di betweenness centrality è un mediatore
ATTRIBUTI DI UN GRAFO
un grafo può essere spezzato in sottocomponenti
densità = proporzione tra le connessioni potenziali (ogni nodo connesso con ogni nodo) e quelle effettive (da 0 a 1)
modularità = quanto un grafo si divide in sottocomunità che si parlano tra di loro

GEPHI
imposta filtri (modularity class x comunità, range x peso)
visulizza etichette clickando "T" in basso
può ricevere come input o un file gexf generato per esempio da networkx con la funzione write_gexf, o un file csv che cntiene la edge network

sociologia 5.11
ogni forma di conoscenza è una forma di potere; attualmente ci sono tre poteri fondamentali: esercito, politica e industria. I fondi per un eventuale progetto Manhattan delle scienze sociali potrebbero venire solo da uno di questi tre; non stupisce quindi che la ricerca sui big data venga fatta con maggiori risultati da Microsoft, Yahoo, Google e Facebook
time to market (TTM) = tempo che si impiega a portare un prodotto sul mercato (il farmaco ha un ttm di 10 anni)
le prime donne entrate nella scienza si occupavano di matematica perché la matematica non interessava a nessuno, non portava flussi economici in entrata, non era considerata un settore strategico
originariamente il termine "computer" si riferiva alle donne che facevano funzionare i computer, che inserivano i dati, un ruolo di sostegno, ancillare
slide 50: è il grafo ottenuto sui rapporti di ricerca, da cui risulta che Enrico Fermi è il nucleo più importante; se avessimo fatto un grafo basato sui rapporti manageriali oppenheimer sarebbe risultato il più importante
slide 51: in corrispondenza degli anni 90 si fa uno zoom della linea del tempo perché è nato l'hgp (genoma umano) e partire da quello c'è un fiume di scoperte
protocollo tcp ip

sociologia 6.11
TIPI DI DATI 
non tutti i dati sottoforma di numeri sono numerici: alcuni sono numerali, anche dette etichette numeriche (es quanto ti piace trump da 1 a 10- in sociologia "scaling", scale per misurare le tendenze: non puoi trattarle come numeri, sono etichette, quello che risponde 10 non ama trump due volte di più di chi ha risposto 5), alle quali non si può applicare le operazioni matematiche fondamentali, ma per esempio i cluster, la tecnica riduzione spazio-attributi. meglio 4 livelli della variabile anziché tre perché se sono tre la matematica fa concentrare i risultati al centro (peggio molto opportunità, opportunità media, poca opportunità-tre livelli, che 4 livelli)


[etnometodologi: conosciamo il mondo come lo parliamo, qualitativisti più scoppiati, il più importante libro di python per le scienze sociali è stato scritto da un etnometodologo]

sociologia 7.11
teoria dei giochi: proceduralizza una cosa complessa come le relazioni, usa dati relazionali, ma la rappresentazione è quantitativa; è un meccanismo di formalizzazione creato da von noiman alla fine degli anni 50, il dilemma del prigioniero è il suo mattoncino zero: si crea una matrice* di possibili scelte in un dato contesto, i numeri sono traduzioni semiotiche di altre cose (scelte, vantaggi…). Per fare questo abbiamo bisogno di svolgere due procedure: 1 definizione operativa - attribuire un valore a ciò che si vuole studiare (es. della disoccupazione, vedi lezione 5.11), 2 dotarsi di uno strumento in grado di attribuire una struttura a questo tipo di informazione. 
*matrice = Una matrice è una tabella ordinata di elementi, dove gli elementi sono numeri e gli indici indicano la posizione degli elementi nelle righe e colonne. In matematica, è una struttura utilizzata per rappresentare dati o trasformazioni

 per metterli assieme si usa la riduzione spazio-attributi.
VEDI L'EVOLUZIONE DELLA FIDUCIA (https://lvdt.github.io/trust/)

MODELLI: Adam Smith nel suo primo libro elabora un modello per studiare i meccanismi di guadagno, poi un tipo ha fatto una rappresentazione fisica dei comportamenti economici attraverso un sistema a ingranaggi tipo orologio (questo è un modello analogico che traduce la teoria di smith delle ripercussioni di un'azione economica sul contesto in un modello fisico, analogo alla teoria). Giorgio israel è il più grande scrittore sui modelli in italia (è uno storico della scienza, specializzato in matematica). in retorica l'analogia è in continuità col significato, la metafora è un salto. 
per rendere computazionale un modello se è scritto in linguaggio naturale devi usare python, se i dati sono numeri devi usare cad, se il modello nasce computazionale puoi usare uml
2 modi per fare modelli: inventarli da zero/si può fare lo stesso lavoro della scomposizione dei polinomi in parti più semplici sul processo

la modellistica può essere interpretata anche in maniera passiva oltre che attiva: se il modello non corrisponde al risultato dell'osservazione ci fornisce comunque delle informazioni sul nostro processo (es. misuro l'altezza media delle persone  che attraversano a un dato semaforo, se il fenomeno è casuale la distribuzione delle altezze sarà isomorfa alla curva di gauss, ma se il modello della curva di gauss non è rappresentativo dobbiamo chiederci perché la distribuzione non è casuale, es ci sta una scuola elementare nelle vicinanze) 
sia la curva di gauss che le reti a invarianza di scala sono vincolati da una logica: la prima dalla casualità dei fenomeni, le seconde dal collegamento preferenziale. 
NETLOGO software per simulazione
legge di pareto (distribuzione 80 20): l'80 percento di effetti è dovuto al 20 percento delle cause (l'80% del lavoro è svolto dal 20% dei lavoratori, la gente preferisce lavorare con chi è già abituato a lavorare)

sociologia 12.11
par 2.1
ALGORITMI:
nei libri di informatica la procedura algoritmica viene narrata come una ricetta di cucina (passaggi fissi, ma con un'infinità di variazioni per ogni passaggio: anche gli algoritmi hanno una parte fissa e una variabile). 
es determinismo: reti neurali che eseguono un percorso che si può ripercuotere sullo stato di partenza, infatti si parla di algoritmo di backpropagation, di machine learning
i modelli ricorsivi non possono diventare algoritmi
la scienza cognitivista vede nel computer una buona metafora del cervello umano, ma non è che se un modello pensato dall'umano non funziona nel computer il modello è sbagliato, il deficit sta nel computer: il modello potrebbe star trasgredendo una o più proprietà degli algoritmi (effettività, finitezza e determinismo).
anche la social simulation (es. netlogo - dialetto di java) si è chiesta se i modelli debbano essere algoritmi; la social simulation ha bisogno di uno spazio di simulazione e di un tempo (essendo grandi e lunghi quelli necessari allo svolgersi dei processi sociali che studia, usa un computer, perché attraverso di esso posso agire su variabili su cui non posso agire nella realtà, o ad esempio condurre studi che potrebbero essere poco etici se svolti nella realtà). 
arriveremo a chiederci cosa distingue un essere umano da una macchina. se un processo è completamente computabile allora cos'è un sociologo, a cosa serve?
il vicepresidente di Netflix dice che ormai i dati anagrafici non servono più per far analisi di marketing: es il 90% del traffico delle serie anime non viene dal giappone, oppure squidgame che è nato specificamente per la corea del nord ed è diventato più visto di bridgeton (un prodotto localizzato è diventato globalizzato non per un legame con le variabili socio-demografiche (classe sociale), ma le variabili lifestyle (abitudini di consumo) più complesse, culturali e simboliche (ipotesi di tody yelteen): queste spiegano anche perché i latinos abbiano preferito votare trump, anche se li ha abbuffati di offese e minacce
par 2.2
Già da molti anni il computer fa parte della ricerca delle scienze sociali, ma in passato era un utilizzo marginale sia in termini di numeri di ricerche in cui era utilizzato, sia rispetto a come veniva usato (come strumento, più che come ambiente)
memetica: utilizza modelli computazionali basati sulla diffusione dei virus

sociologia 20.11
par 2.2.3
ALCUNI MODELLI DI SOCIAL SIMULATION
life è un gioco che simula processi biologici all'interno di un vetrino: è un modello semplice con poche condizioni. su netlogo trovi modello el farol studia il momento perfetto per andare a un concerto (né troppa né troppa poca gente). un altro modo per fare simulazioni è un modello sir (o in versione estesa seir, che aggiunge l'esposizione): un modello statistico che spiega la diffusione di un virus all'interno di una popolazione, è alla base dei processi memetici che studiano la diffusione della cultura all'interno delle comunità. in questo modello abbiamo tre tipi di agenti (persona sana, persona malata e persona guarita). 

NETLOGO
netlogo ha 3 zone: il setting delle condizioni iniziali, visualizzazione grafica del modello, visualizzazione delle metriche + commento + codice + descrizione del modello, dei suoi elementi funzionali. netlogo ha sia modelli didattici, sia puoi crearci un modello da zero. gli enti in netlogo si chiamano "tartarughe" perché il netlogo è la versione complessa di logo, un vecchio software didattico per insegnare la programmazione che usava per la visualizzazione delle tartarughe

wikipedia nasce come portland pattern depository: raccoglieva i commenti ai codici. "Il Portland Pattern Repository (o PPR) è il progetto di documentazione per cui fu usato il primo software wiki mai esistito, Wiki Base. Il programmatore del software e proprietario del sito, Ward Cunningham, chiamò la sezione WikiWikiWeb, e l'affiancò alle già esistenti pagine statiche il 25 marzo 1995, giorno della nascita del primo wiki.
Il Portland Pattern Repository è un repository dedicato all'uso dei pattern nella programmazione" (da Wikipedia)

SOCIAL SIMULATION DI SHELLING
la social simulation, in quanto metodologia di ricerca non ha una disciplina di elezione, è stata usata in diverse discipline. new york negli anni 80 era la città più pericolosa del globo: il problema era la presenza di tante comunità non amalgamate, il periodo coincide con la nascita dei ghetti (vedi i film di spikelee sull'incomunicabilità tra comunità diverse). in altre parole le persone preferivano prendere casa nelle zone dove era già presente la propria comunità etnica. un urbanista, thomas shelling, disse che non era un problema etnico, ma un mix tra opportunità di case e disponibilità ad amalgamarsi con altri gruppi etnici. questo urbanista elaborò il modello di shelling o segregazione sociale, siccome non poteva sperimentare sulle persone, ideò la simulazione sociale. thomas shelling ha così dimostrato che i vincoli funzionali delle città orientavano la creazione di ghetti (infatti su netlogo ci sta la variabile spazio libero). il modello di shelling ha cerato un grande dibattito in quegli anni. 
[pane e cioccolata di nino manfredi (storia di immigrato italiano in germania)]

sociologia 3.12
basandosi sulle fonti scritte la storia ha sempre studiato la storia delle classi dominanti, essendo i loro documenti più numerosi e maggiormente progettati alla durevolezza. negli anni 60 nasce una nuova generazione di storici che provarono a fare una storia degli umili attraverso l'uso sistemico di altre discipline (dalla psicologia all'economia alla sociologia) - storia marxista. esempi: weber dice che il capitalismo si è affermato dove aveva piede la chiesa protestante, la componente simbolica e quella economica vanno di pari passo. la nuova storia di jacques le goff (fondatore degli Annales)

CLIOMETRIA (argomentazione controfattuale)
una teoria scientifica è tale quando esplicita quando non si applica, i buchi che non copre, alcuni gialli usano l'argomentazione controfattuale (usata da chestertone che infatti è cattolico, per i cattolici la conferma che dio esiste è che non puoi dimostrare che non esiste). L'analisi controfattuale non è molto apprezzata in ambito storico (vedi croce: la storia non si fa con i se); 4 la cliometria usa modelli esplicativi economici prekeynesiani, neoclassica (che si concentra sulla moneta, mentre keynes si concentra sulla spesa - alla base del piano marshall) - in sostanza studiano le monete. 

sociologia 4.12
[trump ha fatto la campagna contro ispanici e donne, la maggior parte del suo elettorato è costituita da ispanici e donne perché gli ispanici ormai hanno un'identità americana (segno che non esiste una base genetica alla differenza etnica) - vedi cultural studies]
[ex equo: citazioni prima che inizi il libro]

sociologia 5.12
ECONOMIA COMPORTAMENTALE (behaviourl economics)

llm opensource "stregatto"
